Much recent work in task-oriented parsing has focused on finding a middle ground between flat slots and intents, which are inexpressive but easy to annotate, and powerful representations such as the lambda calculus, which are expressive but costly to annotate. This paper continues the exploration of task-oriented parsing by introducing a new dataset for parsing pizza and drink orders, whose semantics cannot be captured by flat slots and intents. We perform an extensive evaluation of deep-learning techniques for task-oriented parsing on this dataset, including different flavors of seq2seq systems and RNNGs. The dataset comes in two main versions, one in a recently introduced utterance-level hierarchical notation that we call TOP, and one whose targets are executable representations (EXR). We demonstrate empirically that training the parser to directly generate EXR notation not only solves the problem of entity resolution in one fell swoop and overcomes a number of expressive limitations of TOP notation, but also results in significantly greater parsing accuracy.
translated by 谷歌翻译
我们介绍了一个大规模实验,该实验对编码器进行了预处理,其参数计数范围从700m到9.3b不等,随后蒸馏到较小的型号中,范围为17m-170亿参数,其应用到自然语言理解(NLU)组件(NLU)组件(虚拟助手系统。尽管我们使用70%的口语数据训练,但在对书面形式的跨语性自然语言推论(XNLI)语料库进行评估时,我们的教师模型与XLM-R和MT5相当。我们使用系统中的内域数据对教师模型进行了第二阶段的训练,以提高了3.86%的相对分类,而相对7.01%的插槽填充。我们发现,即使是从我们的2阶段教师模型中提取的170亿参数模型,与仅接受公共数据的2.3B参数老师相比,与2.3B参数老师相比,意图分类更好2.88%,并且7.69%的插槽填充错误率更好(第1阶段),强调了。内域数据对训练的重要性。当使用标记的NLU数据进行离线评估时,我们的17m参数阶段2蒸馏模型的表现分别优于XLM-R碱基(85m Params)和Distillbert(42m Params),分别优于4.23%至6.14%。最后,我们介绍了一个完整的虚拟助手实验平台的结果,在该平台中,我们发现使用经过预训练和蒸馏管道训练的模型超过了从8500万参数教师蒸馏的模型,在自动测量全系统用户不满的自动测量中,从8500万参数教师蒸馏出3.74%-4.91%。
translated by 谷歌翻译
深度学习方法已实现了越来越复杂的话语的面向任务的语义解析。但是,单个模型通常仍在分别为每个任务进行培训和部署,需要为每个任务标记培训数据,这使得支持新任务的挑战,即使在单个业务垂直方面(例如,食品订购或旅行预订)也是如此。在本文中,我们描述了交叉顶部(交叉施加任务取消解析),这是一种在给定垂直方向中复杂语义解析的零摄像方法。通过利用用户从相同的垂直共享词汇和语义相似性请求的事实,对单个跨施加性解析器进行了培训,可以在垂直行业内使用任意数量的任意任务,看不见或看不见。我们表明,跨顶部可以在以前看不见的任务上实现高精度,而无需任何其他培训数据,从而提供了一种可扩展的方法来引导新任务的语义解析器。作为这项工作的一部分,我们发布了食物界数据集,该数据集是一个面向任务的解析数据集中的垂直垂直数据集,其话语和注释来自五个架构,每个架构都来自不同的餐厅菜单。
translated by 谷歌翻译
视觉惯性进程(VIO)是当今大多数AR/VR和自主机器人系统的姿势估计主链,无论是学术界和工业的。但是,这些系统对关键参数的初始化高度敏感,例如传感器偏见,重力方向和度量标准。在实际场景中,很少满足高parallax或可变加速度假设(例如,悬停空中机器人,智能手机AR用户不使用电话打手机的智能手机AR),经典的视觉惯性初始化配方通常会变得不良条件和/或未能有意义地融合。在本文中,我们专门针对这些低兴奋的场景针对野生用法至关重要的视觉惯性初始化。我们建议通过将新的基于学习的测量作为高级输入来规避经典视觉惯性结构(SFM)初始化的局限性。我们利用学到的单眼深度图像(单深度)来限制特征的相对深度,并通过共同优化其尺度和偏移来将单深度升级到度量标尺。我们的实验显示出与视觉惯性初始化的经典配方相比,问题条件有显着改善,并且相对于公共基准的最先进,尤其是在低兴奋的情况下,相对于最先进的表现,具有显着的准确性和鲁棒性提高。我们进一步将这种改进扩展到现有的探射系统中的实现,以说明我们改进的初始化方法对产生跟踪轨迹的影响。
translated by 谷歌翻译